Ciri dan batasan ChatGPT

Sembang dengan ChatGPT tentang sama ada pengasas Wikipedia, Jimmy Wales pernah terlibat dalam protes Dataran Tiananmen, 30 Disember 2022.

Walaupun fungsi teras chatbot adalah untuk meniru ahli perbualan manusia, ChatGPT bersifat serba boleh. Sebagai contoh, ia mempunyai keupayaan untuk menulis dan menyahpepijat atur cara komputer; untuk mengarang muzik, cerita dongeng, dan karangan pelajar; untuk menjawab soalan ujian (kadangkala, bergantung pada ujian, pada tahap melebihi purata pengambil ujian manusia);[12] menulis lirik puisi dan lagu;[13] simulasi sistem Linux, simulasi sebuah ruang sembang secara keseluruhan, bermain permainan seperti tic-tac-toe, dan simulasi ATM.[14] Data latihan ChatGPT juga termasuk ilmu halaman manual dan fenomena Internet serta bahasa atur cara.[14]

Berbanding pendahulu, InstructGPT, ChatGPT cuba untuk mengurangkan balasan yang berbahaya dan kurang tepat.[15] Dalam satu contoh, sedangkan InstructGPT menerima premis gesaan "Beritahu saya tentang masa Christopher Columbus datang ke AS pada 2015" sebagai kebenaran, ChatGPT mengakui sifat balas soalan dan membayangkan jawapannya sebagai pertimbangan hipotesis tentang perkara yang mungkin berlaku jika Columbus datang ke A.S. pada 2015, menggunakan maklumat tentang penjelajahan Columbus dan fakta tentang dunia moden – termasuk persepsi moden tentang tindakan Columbus.[6]

Tidak seperti kebanyakan bot sembang lain, ChatGPT mengingati tuturan sebelumnya yang diberikan kepadanya dalam perbualan yang sama; para wartawan telah mencadangkan bahawa ini akan membolehkan ChatGPT digunakan sebagai ahli terapi peribadi.[16] Untuk mengelakkan balasan yang menyinggung daripada dipersembahkan kepada dan dihasilkan daripada ChatGPT, pertanyaan ditapis melalui API seliaan seluruh syarikat OpenAI,[17][18] dan gesaan rasis atau seksis ditolak.[6][16]

Sungguhpun begitu, ChatGPT mengalami pelbagai batasan. OpenAI mengakui bahawa ChatGPT "kadangkala menulis jawapan yang kedengaran tepat, tetapi tidak betul atau tidak masuk akal".[6] Masalah ini biasa dalam model bahasa besar dan dipanggil halusinasi.[19] Model ganjaran ChatGPT, yang direka berdasarkan pengawasan manusia, boleh dioptimumkan secara berlebihan dan dengan itu menghalang prestasi, atau dikenali sebagai hukum Goodhart.[20] ChatGPT mempunyai pengetahuan terhad tentang peristiwa yang berlaku selepas 2021. Menurut BBC, sehingga Disember 2022 ChatGPT tidak dibenarkan untuk "menyatakan pendapat politik atau terlibat dalam aktivisme politik."[21] Namun, penyelidikan mencadangkan bahawa ChatGPT mempamerkan orientasi proalam dan libertarian kiri apabila digesa untuk mengambil pendirian terhadap kenyataan politik daripada dua aplikasi nasihat pengundian yang telah ditetapkan.[22] Dalam latihan ChatGPT, penyemak manusia memilih jawapan yang lebih panjang tanpa mengira pemahaman sebenar atau ketepatan kandungan.[6] Data latihan juga mengalami bias algoritma, yang mungkin didedahkan apabila ChatGPT membalas bahan termasuk penjelasan tentang orang. Dalam satu contoh, ChatGPT menghasilkan rap yang menunjukkan bahawa wanita dan saintis berwarna kulit minoriti adalah lebih rendah daripada saintis kulit putih dan lelaki.[23][24]